Visión general y paisaje de evolución arquitectónica
Pasamos del éxito fundamental de AlexNet a la era de redes profundas extremasRedes Neuronales Convolucionales (RNC). Este cambio requirió innovaciones arquitectónicas profundas para manejar una profundidad extrema manteniendo la estabilidad durante el entrenamiento. Analizaremos tres arquitecturas fundamentales—VGG, GoogLeNet (Inception), y ResNet—comprendiendo cómo cada una resolvió aspectos diferentes del problema de escalabilidad, sentando las bases para una interpretación rigurosa del modelo más adelante en esta lección.
1. Simplicidad estructural: VGG
VGG introdujo el paradigma de maximizar la profundidad utilizando tamaños de kernel extremadamente uniformes y pequeños (exclusivamente filtros convolucionales 3x3apilados). Aunque computacionalmente costoso, su uniformidad estructural demostró que la profundidad cruda, alcanzada mediante mínima variación arquitectónica, fue un factor principal del aumento de rendimiento, consolidando la importancia de campos receptivos pequeños.
2. Eficiencia computacional: GoogLeNet (Inception)
GoogLeNet contrarrestó el alto costo computacional de VGG priorizando la eficiencia y la extracción de características multiescala. La innovación central es el módulo Inception, que realiza convoluciones paralelas (1x1, 3x3, 5x5) y agrupamiento. Críticamente, utiliza convoluciones 1x1 como cuellos de botellapara reducir drásticamente el número de parámetros y la complejidad computacional antes de operaciones costosas.
La conexión salteada introduce un término de identidad ($+x$) en la salida, creando un término aditivo en la ruta derivada ($\frac{\partial Loss}{\partial H} = \frac{\partial Loss}{\partial F} + 1$). Este término garantiza una ruta directa para que la señal de gradiente fluya hacia atrás, asegurando que los pesos superiores reciban una señal de gradiente no nula y útil, independientemente de lo pequeño que sean los gradientes a través de la función residual $F(x)$.